Selon Le Wall Street Journal, Claude, l'IA d'Anthropic, a participé à l'opération militaire américaine contre Nicolás Maduro à Caracas. Ce serait une première pour une IA commerciale dans une frappe classifiée.

Personne ne sait vraiment où commence et où s'arrête l'usage de Claude dans ce raid qui a conduit à la capture de Nicolás Maduro - ©photoibo / Shutterstock
Personne ne sait vraiment où commence et où s'arrête l'usage de Claude dans ce raid qui a conduit à la capture de Nicolás Maduro - ©photoibo / Shutterstock

« Nous ne pouvons pas commenter l'utilisation de Claude, ni d'aucun autre modèle d'IA, dans le cadre d'une opération spécifique, classifiée ou non », a déclaré un porte-parole d'Anthropic. Le ministère de la Défense a également refusé de commenter.

Tout le monde joue la carte muette, mais Claude aurait bien été déployé lors de bombardements visant à capturer l'ancien président vénézuélien et son épouse. Et c'est Palantir, la société de Peter Thiel qui équipe l'armée américaine en logiciels d'analyse depuis vingt ans, qui a rendu cela possible.

Or la politique d'utilisation d'Anthropic interdit explicitement trois usages : faciliter la violence, développer des armes, mener des opérations de surveillance. Un raid militaire avec bombardements coche au minimum deux cases sur trois.

Un contrat de 200 millions qui contourne la politique publique

Anthropic a signé un contrat de 200 millions de dollars avec le département de la Défense. Dario Amodei, le PDG, avait pourtant exprimé publiquement ses réserves sur l'usage de l'IA dans les opérations létales autonomes et la surveillance intérieure. Deux points d'achoppement lors des négociations. Une clause permet à Anthropic d'« adapter les restrictions d'utilisation » pour certains clients gouvernementaux si les « garanties contractuelles sont suffisantes ». Ce que la politique interdit au grand public, un contrat militaire peut donc l'autoriser en privé. Ce double standard explique comment Claude a pu participer à une opération militaire létale

Pete Hegseth, secrétaire à la Défense, a annoncé en janvier lors du partenariat avec xAI qui n'aura finalement pas lieu : le Pentagone ne travaillera pas avec « des modèles d'IA qui vous empêcheraient de faire la guerre ». La remarque visait directement Anthropic. L'administration Trump reproche à l'entreprise de freiner sa stratégie de dérégulation en réclamant des garde-fous et des limites sur les exportations de puces. Anthropic l'a franchie avec ce contrat de 200 millions. Mais personne ne sait vraiment où commence et où s'arrête l'usage de Claude dans cette opération.

Anthropic vend désormais Claude à l'armée américaine sans dire ce qu'il fait réellement - ©Thrive Studios ID / Shutterstock
Anthropic vend désormais Claude à l'armée américaine sans dire ce qu'il fait réellement - ©Thrive Studios ID / Shutterstock

Synthèse de renseignement ou ciblage direct ? Le flou technique absolu

Le Wall Street Journal précise que « les outils d'IA peuvent servir à de nombreuses applications, allant de la synthèse de documents au pilotage de drones autonomes ». Entre ces deux extrêmes, il y a un monde. Pour analyser des rapports de renseignement pour préparer une mission on n'engage pas les mêmes responsabilités que pour calculer des trajectoires de frappe ou identifier des cibles en temps réel. Anthropic refuse de détailler le rôle exact de Claude. Cette opacité protège l'entreprise juridiquement : tant que personne ne sait ce que Claude a fait précisément, personne ne peut prouver qu'une ligne a été franchie.

Anthropic a construit toute sa réputation sur la sécurité de l'IA, la transparence, les limites claires. Dario Amodei a multiplié les tribunes pour réclamer plus de régulation que ses concurrents. OpenAI et Google viennent d'ailleurs de rejoindre une plateforme militaire utilisée par trois millions de personnes. ChatGPT et Gemini y servent à l'analyse de documents, à la génération de rapports, au soutien à la recherche. Des usages déclarés, documentés, non létaux.

Anthropic vend désormais Claude à l'armée américaine sans dire ce qu'il fait réellement. Où commence l'usage létal d'une IA ? Quand elle analyse des données ? Quand elle recommande une cible ? Quand elle calcule des trajectoires ? Le contrat de 200 millions autorise à « adapter les restrictions ». Mais « adapter » ne veut rien dire de précis. L'administration Trump a même envisagé d'annuler le contrat si Anthropic continuait à bloquer certains usages, comme l'avait rapporté le Wall Street Journal. Anthropic maintient que toute utilisation doit respecter ses politiques.

Les deux parties communiquent sur leurs principes, mais personne ne dit ce qui s'est réellement passé à Caracas. Ce flou technique permet à Anthropic de tenir un double discours : vendre à l'armée tout en affirmant respecter ses règles éthiques.

Source : The Wall Street journal (accès payant)